Categoría: Opinión
Javier Morales
Share
Listen On

Quien crea que la IA está dentro de una burbuja podría sentirse confirmado por una entrevista reciente en CNBC con el CEO de Nvidia, Jensen Huang.

La entrevista apareció después de que grandes clientes de Nvidia como Meta, Amazon y Google quedaran bajo presión en bolsa tras anunciar que, pese a presupuestos ya enormes, planean invertir todavía más en infraestructura de IA.

En la conversación, Huang repite un mensaje típico del sector: más potencia de cómputo implica automáticamente más ingresos. Como proveedor de chips, Nvidia se beneficia directamente de que el mercado acepte esa ecuación. Y hay elementos reales detrás del relato: la demanda de cómputo para IA existe, los modelos mejoran, los ingresos de los grandes proveedores de IA crecen, y los avances en IA “agentiva” son impresionantes.

Pero Huang estira estas observaciones hasta volverlas irreconocibles, por ejemplo cuando afirma que la expansión actual de la IA es la “mayor actualización de infraestructura de la historia de la humanidad”, como si nunca hubieran existido la electrificación, el ferrocarril, las redes viales o la expansión global de la infraestructura energética basada en combustibles fósiles.

Huang exagera: los modelos de IA no han dejado de “alucinar”

La sobredimensión se vuelve más evidente en un punto concreto. Huang dice literalmente: “La IA es extremadamente útil y ya no alucina.” Es decir, que los modelos de lenguaje ya no generan información falsa. Eso no es cierto.

Se podría conceder que Huang se expresó mal: que en realidad quiso decir “mucho menos”, o “lo bastante poco como para que apenas se note”. Probablemente sea así.

Pero esta distinción no es un detalle menor. Las alucinaciones no son un bug que se pueda “parchear” por completo: son un subproducto de la arquitectura probabilística sobre la que se basan los modelos de lenguaje. Y eso explica parte de la cautela en empresas: falta de fiabilidad, necesidad de supervisión humana y preguntas abiertas de seguridad.

Por eso, la afirmación incorrecta de Huang no es trivial. La fiabilidad sigue siendo el mayor frente pendiente de la IA generativa. Incluso OpenAI ha reconocido que es probable que las alucinaciones nunca desaparezcan del todo. Si los sistemas actuales pudieran indicar de forma fiable cuánta confianza tienen en su propia salida, eso por sí solo sería transformador. Pero ni siquiera esa autocalibración funciona hoy con consistencia.

Si las alucinaciones estuvieran realmente resueltas, el “human in the loop” sería en gran medida prescindible: la asesoría legal podría automatizarse ampliamente, el código generado por IA podría ir directo a producción, los diagnósticos médicos podrían emitirse sin revisión clínica, y los sistemas de IA podrían mejorarse a sí mismos sin que los errores se acumulen. Viviríamos en otro mundo. No por casualidad, están surgiendo nuevas startups que buscan arquitecturas distintas, porque dudan de que los modelos actuales puedan lograr mejoras fundamentales.

Que el CEO del proveedor de chips más importante para la IA pueda decir en CNBC que la IA “ya no comete errores” y que nadie lo contradiga quizá sea la señal más clara de hasta qué punto el hype se ha alejado de la realidad técnica.

Quien crea que la IA está dentro de una burbuja podría sentirse confirmado por una entrevista reciente en CNBC con el CEO de Nvidia, Jensen Huang.

La entrevista apareció después de que grandes clientes de Nvidia como Meta, Amazon y Google quedaran bajo presión en bolsa tras anunciar que, pese a presupuestos ya enormes, planean invertir todavía más en infraestructura de IA.

En la conversación, Huang repite un mensaje típico del sector: más potencia de cómputo implica automáticamente más ingresos. Como proveedor de chips, Nvidia se beneficia directamente de que el mercado acepte esa ecuación. Y hay elementos reales detrás del relato: la demanda de cómputo para IA existe, los modelos mejoran, los ingresos de los grandes proveedores de IA crecen, y los avances en IA “agentiva” son impresionantes.

Pero Huang estira estas observaciones hasta volverlas irreconocibles, por ejemplo cuando afirma que la expansión actual de la IA es la “mayor actualización de infraestructura de la historia de la humanidad”, como si nunca hubieran existido la electrificación, el ferrocarril, las redes viales o la expansión global de la infraestructura energética basada en combustibles fósiles.

Huang exagera: los modelos de IA no han dejado de “alucinar”

La sobredimensión se vuelve más evidente en un punto concreto. Huang dice literalmente: “La IA es extremadamente útil y ya no alucina.” Es decir, que los modelos de lenguaje ya no generan información falsa. Eso no es cierto.

Se podría conceder que Huang se expresó mal: que en realidad quiso decir “mucho menos”, o “lo bastante poco como para que apenas se note”. Probablemente sea así.

Pero esta distinción no es un detalle menor. Las alucinaciones no son un bug que se pueda “parchear” por completo: son un subproducto de la arquitectura probabilística sobre la que se basan los modelos de lenguaje. Y eso explica parte de la cautela en empresas: falta de fiabilidad, necesidad de supervisión humana y preguntas abiertas de seguridad.

Por eso, la afirmación incorrecta de Huang no es trivial. La fiabilidad sigue siendo el mayor frente pendiente de la IA generativa. Incluso OpenAI ha reconocido que es probable que las alucinaciones nunca desaparezcan del todo. Si los sistemas actuales pudieran indicar de forma fiable cuánta confianza tienen en su propia salida, eso por sí solo sería transformador. Pero ni siquiera esa autocalibración funciona hoy con consistencia.

Si las alucinaciones estuvieran realmente resueltas, el “human in the loop” sería en gran medida prescindible: la asesoría legal podría automatizarse ampliamente, el código generado por IA podría ir directo a producción, los diagnósticos médicos podrían emitirse sin revisión clínica, y los sistemas de IA podrían mejorarse a sí mismos sin que los errores se acumulen. Viviríamos en otro mundo. No por casualidad, están surgiendo nuevas startups que buscan arquitecturas distintas, porque dudan de que los modelos actuales puedan lograr mejoras fundamentales.

Que el CEO del proveedor de chips más importante para la IA pueda decir en CNBC que la IA “ya no comete errores” y que nadie lo contradiga quizá sea la señal más clara de hasta qué punto el hype se ha alejado de la realidad técnica.

Senior AI Research Analyst
Javier Morales es investigador y analista senior en inteligencia artificial con base en España. Su trabajo se centra en el estudio de modelos de IA a gran escala, su integración en infraestructuras empresariales y las implicaciones económicas y sociales de su adopción. Ha analizado en profundidad las estrategias de las principales compañías tecnológicas, así como el impacto de la inteligencia artificial en productividad, gobernanza digital y comportamiento de los usuarios. Sus publicaciones se caracterizan por un enfoque analítico, basado en datos y orientado a la evaluación crítica de tecnologías emergentes.